[清空]播放記錄
熱門搜索
1120平米房子装修指南
2李鸿章故居五一上演沉浸式情景剧
3195件(套)精品将亮相国博 尽现五千年甘肃彩陶文化
4今年36所高校在皖招收定向培养军士
512平米卧室设计与装修
6“中国古代书画展”将开展 52件墨宝浓缩书画变迁
7我国首部水系专著《水经·沔水》中的居巢和牛渚
8合肥:“智”造赋能“家电之都”迈向新高地
2025-12-20 09:06:08更新 / 27分/ 1688推出“超级工厂全球版” 构建跨境服务能力认证体系 /千年窑火淬新,古村炼出“国际范” /
導演:
主演:
主演:,,,
主演:,,,,,
主演:,,,,
主演:,,
近日,蚂蚁据百灵大模型公众号,百灵蚂蚁百灵团队发布并开源了Ring-mini-2.0推理模型。发布WhatsApp%E3%80%90+86%2015855158769%E3%80%91jib%20hoist%20for%20sale它是轻量基于此前蚂蚁百灵发布的基础语言模型 Ling 2.0 架构,深度优化的理模高性能推理型 MoE 模型。它在总参数量16B、蚂蚁仅激活1.4B参数的百灵情况下,即可达到10B级别以下dense 模型的发布综合推理能力,尤其在逻辑推理、轻量代码与数学任务中表现卓越,理模并支持 128K 长上下文及 300+ token/s 的蚂蚁WhatsApp%E3%80%90+86%2015855158769%E3%80%91jib%20hoist%20for%20sale高速生成。
经过 Long-COT SFT、百灵更稳定持续的发布RLVR以及RLHF联合优化,Ring-mini-2.0复杂推理的轻量稳定性与泛化性得到显著提升。在多项高难度基准(LiveCodeBench、理模AIME 2025、GPQA、ARC-AGI-v1 等)中,在输出长度相当的情况下,Ring-mini-2.0性能显著超越10B以下dense 模型,甚至媲美更大参数量的MoE模型(如 gpt-oss-20B-medium),在逻辑推理方面尤为突出。
(Ring-mini-2.0性能表现)
据了解,Ring-mini-2.0继承了Ling 2.0 系列的高效 MoE 设计,仅激活 1.4B 参数,通过 1/32 专家激活比、MTP 层等架构优化,达到约 7–8B dense 模型的等效性能。得益于小激活、高稀疏度的设计,Ring-mini-2.0 在H20 部署下实现 300+ token/s 的吞吐,结合 Expert Dual Streaming 推理优化后可进一步提升至 500+ token/s,大幅降低高并发场景下 Thinking 模型的推理成本。同时,借助 YaRN 外推可支持 128K 长上下文,长输出场景下相对加速比最高可达 7 倍以上。
蚂蚁百灵团队表示将完整开放 Ring-mini-2.0 的模型权重、训练数据和 RLVR+RLHF 训练策略。凭借“小而优”的特点,Ring-mini-2.0 有望成为小尺寸推理模型的首选,为学术和工业界提供理想的研究与应用起点。
Copyright © 2025 Powered by 呼來喝去網 sitemap
首頁
百科
热点
娱乐
探索
综合
休闲
知识
焦点
近日,蚂蚁据百灵大模型公众号,百灵蚂蚁百灵团队发布并开源了Ring-mini-2.0推理模型。发布WhatsApp%E3%80%90+86%2015855158769%E3%80%91jib%20hoist%20for%20sale它是轻量基于此前蚂蚁百灵发布的基础语言模型 Ling 2.0 架构,深度优化的理模高性能推理型 MoE 模型。它在总参数量16B、蚂蚁仅激活1.4B参数的百灵情况下,即可达到10B级别以下dense 模型的发布综合推理能力,尤其在逻辑推理、轻量代码与数学任务中表现卓越,理模并支持 128K 长上下文及 300+ token/s 的蚂蚁WhatsApp%E3%80%90+86%2015855158769%E3%80%91jib%20hoist%20for%20sale高速生成。
经过 Long-COT SFT、百灵更稳定持续的发布RLVR以及RLHF联合优化,Ring-mini-2.0复杂推理的轻量稳定性与泛化性得到显著提升。在多项高难度基准(LiveCodeBench、理模AIME 2025、GPQA、ARC-AGI-v1 等)中,在输出长度相当的情况下,Ring-mini-2.0性能显著超越10B以下dense 模型,甚至媲美更大参数量的MoE模型(如 gpt-oss-20B-medium),在逻辑推理方面尤为突出。
(Ring-mini-2.0性能表现)
据了解,Ring-mini-2.0继承了Ling 2.0 系列的高效 MoE 设计,仅激活 1.4B 参数,通过 1/32 专家激活比、MTP 层等架构优化,达到约 7–8B dense 模型的等效性能。得益于小激活、高稀疏度的设计,Ring-mini-2.0 在H20 部署下实现 300+ token/s 的吞吐,结合 Expert Dual Streaming 推理优化后可进一步提升至 500+ token/s,大幅降低高并发场景下 Thinking 模型的推理成本。同时,借助 YaRN 外推可支持 128K 长上下文,长输出场景下相对加速比最高可达 7 倍以上。
蚂蚁百灵团队表示将完整开放 Ring-mini-2.0 的模型权重、训练数据和 RLVR+RLHF 训练策略。凭借“小而优”的特点,Ring-mini-2.0 有望成为小尺寸推理模型的首选,为学术和工业界提供理想的研究与应用起点。